寻找最新最佳的3D 创建人工智能。浏览最全面的AI数据库,每日持续更新。
最新
Hitem3d 是一款领先的平台,可直接从图像生成高保真三维模型。该服务利用专有技术,旨在将单个输入图像转换为细节丰富、精度极高的可投入生产的 3D 资产。它通过提供简化的流程来解决关键的行业挑战,该流程可以保持清晰的边缘并保留复杂的视觉数据,使得输出可以直接用于要求苛刻的应用,如 3D 打印和游戏开发。
该平台的一项重要能力是其
KLING 3.0 是一款下一代视频生成平台,旨在直接从文本或图像提示创建高度逼真、影院级的素材。它专注于长篇、时间连贯的视频,使用户能够生成具有一致角色、稳定镜头运动和丰富环境细节的复杂场景。凭借针对高分辨率输出和对运动及风格进行精细控制而优化的模型架构,KLING 3.0 旨在为那些需要在不牺牲视觉保真度的情况下快速迭代的专业创作者服务。
VIGA 是一个多模态代理,它将视觉视为逆向图形,通过 Blender 中的分析-合成循环,将图像重建为可编辑的 3D 场景程序。
通过将多模态推理与不断发展的上下文记忆交织在一起,VIGA 可以“感知编码”场景、它们的物理特性和交互,使用基本元素或高质量生成资产从头开始构建它们。
在新的 BlenderBenc
HY-Motion 1.0 是腾讯混元团队开发的开源文本到 3D 人体动作生成模型,旨在直接从自然语言描述中自动生成高质量的角色动画。它专注于生成可集成到标准内容创建流程中的 3D 骨架动作,使用户能够通过文字描述动作并获得物理上合理的运动序列,而无需手动设置关键帧。该项目专为面向生产的工作流程而设计,提供了代码和模型权重,可用于合成从日常行为到高动态
UGCraft AI 专为彻底改变 Roblox 用户生成内容 (UGC) 创作者的工作流程而设计,提供从抽象概念到经过抛光、可发布数字物品的无与伦比的途径。该平台通过允许用户通过简单的文本提示或图像参考生成详细的配饰和服装,消除了传统上与 3D 资产创建相关的较高门槛。无论创作者设想的是错综复杂的哥特式洛丽塔时装还是未来主义的赛博朋克头饰,该工具都能
Stable Diffusion 3.5 是 Stability AI 发布的一款强大的文生图生成模型,具有多种针对不同创意和专业需求的模型变体。此次发布包括 Stable Diffusion 3.5 Large、Large Turbo 和 Medium 版本,每个版本都旨在平衡图像质量、速度和提示词遵循度。这些模型使用户能够创建具有卓越保真度的高质量
SAM 3D 是一个强大的 3D 重建模型,能够从 2D 图像创建详细的 3D 场景。该模型是利用大规模真实世界数据来解决物理世界的复杂性和丰富性的一个重要进步。通过 SAM 3D,我们推出了两个新模型:SAM 3D Objects,它实现了物体和场景重建;SAM 3D Body,它专注于人体和形状估计。这两个模型都提供了强大、最先进的性能,将静态 2
Marble 是 World Labs 开发的首个商用生成式世界模型,该公司由人工智能先驱李飞飞领导。它专注于使用文本提示、图像、视频和 3D 布局图等各种输入方法生成可编辑且持久的 3D 环境。该产品提供高保真度的空间一致性,并支持对生成的世界进行无缝探索,使其适用于游戏开发、电影视觉效果、虚拟现实和机器人模拟等应用。Marble 的独特之处在于它允
TRELLIS 3D AI 是一款尖端的工具,旨在通过将标准的二维图像转换为详细的三维模型,彻底改变三维资产的创建过程。此过程由先进技术驱动,该技术分析上传图像的视觉数据,以重建复杂的几何形状并应用生动、准确的纹理。它经过精心设计,可利用独特的 SLAT 表示法来保持源材料的关键结构元素,从而实现专业级输出,使其可供广泛的创作者使用,这些创作者寻求高质
VeeSpark 的 AI 视频生成器是一款功能强大的工具,旨在轻松将您的创意概念转化为引人入胜的视频。无论您是拥有完整的脚本、一系列故事板框架,还是仅仅拥有一个引人入胜的想法,我们的 AI 引擎都能高效地将您的输入转化为高质量的视频内容。这使其成为需要快速有效地制作引人入胜的视觉效果的内容创作者、营销专业人士和教育工作者的理想解决方案。该生成器简化了
VoxDeck 是一款人工智能演示文稿创作工具,它彻底改变了演示文稿的制作流程,将简单的文本提示或上传的材料转化为视觉效果惊艳的专业幻灯片。它擅长打造沉浸式、影院级的幻灯片体验,并运用 3D 图表、交互式视觉效果和逼真的头像等元素,动态地讲述和呈现内容。该工具旨在通过自动化大部分设计和创作流程,节省专业人士、教育工作者和商业用户的时间和精力,同时确保演
OmniPart 是一个用于生成零件感知型 3D 对象的新型框架,它在保持稳健结构内聚力的同时,实现了组件之间的高度语义解耦。该框架旨在克服传统生成方法仅能生成单一形状的局限性,从而限制了它们在交互式应用中的实用性。OmniPart 以独特的方式将复杂的 3D 对象生成任务解耦为两个协同阶段,从而能够创建具有明确、可编辑零件结构的 3D 资源。
Elevate3D 是一个新颖的框架,可将易于获取的低质量 3D 资源转换为更高质量的资源。它增强了低质量的 3D 模型,通过迭代纹理和几何细化将其转换为高质量资源。Elevate3D 的核心是 HFS-SDEdit,这是一种专门的纹理增强方法,可以在显著提高纹理质量的同时,保留外观和几何形状,并修复其质量下降的问题。
Elev
PhysX-3D 是一种端到端的基于物理的 3D 资源生成范式。它旨在通过提出 PhysXNet 来弥补基于物理标注的 3D 数据集中的关键空白。PhysXNet 是首个基于物理的 3D 数据集,系统地涵盖五个基本维度:绝对尺度、材质、可供性、运动学和功能描述。该数据集能够高效地从原始 3D 资源创建基于物理的资源,从而促进能够生成物理可信资源的 3D
HoloTime 是一个框架,它集成了视频扩散模型,可以从单个提示或参考图像生成全景视频,并结合了 360 度 4D 场景重建方法,将生成的全景视频无缝转换为 4D 素材,为用户带来完全沉浸式的 4D 体验。该框架旨在解决现有扩散模型主要专注于建模静态 3D 场景或对象级动态的问题,从而限制了它们提供真正沉浸式体验的能力。
为了
DreamActor-M1 是一款基于扩散变换技术的先进人体图像动画框架,能够通过单张静态图像创建高度逼真且富有表现力的动画。它能够对面部表情和全身动作进行精细的整体控制,使用户能够为肖像和全身镜头制作动画,且不会损失细节或画质。该模型采用混合运动引导系统,整合了隐式面部表征、3D 头部球体和 3D 身体骨骼,从而生成自然且能够保留身份的动画,捕捉细微
Hi3DGen 是一个尖端框架,旨在利用一种新颖的法线桥接技术,从单张 2D 图像生成高保真 3D 几何体。由于 RGB 图像中的域间隙、光照变化和固有的模糊性,传统方法通常难以准确再现细粒度的几何细节。Hi3DGen 通过将图像到几何体的生成过程分解为两个阶段来解决这些挑战:首先,使用注入噪声的双流网络从图像中估计详细的法线图,该网络可以稳定和锐化预
VACE 是一个一体化的视频创作和编辑框架,旨在将多种视频合成和编辑任务统一到一个多功能模型中。它支持多种功能,包括文本转视频生成、引用转视频生成、视频转视频编辑以及带蒙版的视频转视频编辑。通过将文本、图像、视频和蒙版等多种输入模式集成到一个统一的视频条件单元 (VCU) 中,VACE 能够无缝处理传统上需要多种专用工具才能完成的复杂视频任务。该模型利
VideoDiT 是一个先进的视频生成框架,它弥合了图像扩散变换器和视频合成之间的差距。通过将分布保持变分自编码器 (DP-VAE) 和 3D 扩散变换器集成到预训练的文本转图像 (T2I) 模型中,VideoDiT 能够以最少的附加参数实现高效的联合训练和高质量的视频合成。该架构旨在充分利用强大的图像扩散模型的优势,同时扩展其处理视频数据时空复杂性的
TaoAvatar 是一款先进的框架,用于实时生成逼真的全身 3D 语音虚拟人物。TaoAvatar 旨在无缝运行于移动设备和增强现实设备(包括 Apple Vision Pro 等高端平台),它创建的虚拟人物不仅视觉效果惊艳,而且互动性极强。该系统利用多视角图像序列构建拓扑一致的数字人,这些数字人可以完全控制姿势、手势和面部表情。这使得 TaoAva